人工智能 (AI) 的成功采用在很大程度上取决于决策者对它的理解和信任程度 [6]。在不久的将来,人工智能将对人类做出深远的决策,例如在自动驾驶汽车、贷款申请或刑事司法系统中。像 COMPAS 这样的例子,一种用于假释决策的种族偏见算法表明需要审查人工智能决策 [7]。但像深度神经网络 (DNN) 这样的复杂人工智能模型很难被人类理解,并且充当事实上的黑匣子 [16]。相比之下,决策树等简单模型对人类来说更容易理解,但缺乏预测准确性 [9],尽管有些人认为这不一定正确 [21]。可解释人工智能领域旨在创建更可解释的模型,同时仍实现高预测能力。目前的研究讨论表明,可解释性将带来更多的信任、更现实的期望和更公平的决策 [6]。事后解释技术通过创建一个简化的、可解释的解释模型来工作,该模型近似于黑匣子的行为 [24]。然而,这种简化并非没有风险,因为根据定义,黑匣子的精确工作原理并未显示出来 [24]。相反,可解释模型旨在使
![arXiv:2102.06518v1 [cs.AI] 2021 年 2 月 12 日PDF文件第1页](/bimg/8/88f15520916f187ac44a9bd71b3235a111bb4ecc.webp)
![arXiv:2102.06518v1 [cs.AI] 2021 年 2 月 12 日PDF文件第2页](/bimg/d/d8eaa8afa6a3a000c78d897ea913e955960a2d67.webp)
![arXiv:2102.06518v1 [cs.AI] 2021 年 2 月 12 日PDF文件第3页](/bimg/d/df7694b076d17b5931a74b679bb83d6d3a003f87.webp)
![arXiv:2102.06518v1 [cs.AI] 2021 年 2 月 12 日PDF文件第4页](/bimg/d/d47e34ac9d05bd0fe70e82e5cdd73e225a143db7.webp)
![arXiv:2102.06518v1 [cs.AI] 2021 年 2 月 12 日PDF文件第5页](/bimg/c/c9d16240628101121d78381bf207919aa7f77fb4.webp)
